Text copied to clipboard!

Заглавие

Text copied to clipboard!

Разработчик на Spark

Описание

Text copied to clipboard!
Търсим Разработчик на Spark, който да се присъедини към нашия екип от професионалисти в сферата на големите данни и анализа. Кандидатът трябва да има опит в разработката на мащабируеми и ефективни решения, използвайки Apache Spark, и да може да работи в динамична среда с големи обеми от данни. Ролята изисква силни технически умения, способност за решаване на проблеми и желание за непрекъснато учене и развитие. Като Разработчик на Spark, ще бъдете отговорни за проектиране, разработване и оптимизиране на Spark приложения, които обработват и анализират големи обеми от структурирани и неструктурирани данни. Ще работите в тясно сътрудничество с екипи от анализатори, инженери по данни и DevOps специалисти, за да осигурите надеждни и ефективни решения за нашите клиенти и вътрешни нужди. Идеалният кандидат има опит с програмни езици като Scala, Java или Python, както и добро разбиране на архитектурата на Apache Spark, включително Spark SQL, DataFrames, Datasets и Spark Streaming. Познанията по Hadoop, Hive, Kafka и други технологии за обработка на данни са предимство. Ние предлагаме конкурентно възнаграждение, възможности за професионално развитие, работа по иновативни проекти и приятелска работна среда. Ако сте мотивиран, ориентиран към резултати и имате страст към работата с големи данни, ще се радваме да се свържете с нас.

Отговорности

Text copied to clipboard!
  • Разработка и поддръжка на Spark приложения за обработка на големи данни
  • Оптимизация на производителността на Spark задачи
  • Интеграция на Spark с други системи като Hadoop, Kafka и Hive
  • Работа с екипи от анализатори и инженери по данни
  • Проектиране на ETL процеси с помощта на Spark
  • Участие в архитектурни решения и избор на технологии
  • Документиране на разработените решения
  • Тестване и отстраняване на грешки в Spark приложенията
  • Следене на новостите в екосистемата на Apache Spark
  • Осигуряване на сигурност и надеждност на данните

Изисквания

Text copied to clipboard!
  • Опит с Apache Spark (минимум 2 години)
  • Добри познания по Scala, Java или Python
  • Разбиране на концепциите за разпределена обработка на данни
  • Опит с Hadoop, Hive, Kafka е предимство
  • Умения за работа с Git и CI/CD инструменти
  • Способност за работа в екип и комуникация
  • Аналитично мислене и решаване на проблеми
  • Желание за учене и развитие
  • Опит с облачни платформи (AWS, Azure или GCP) е плюс
  • Висше образование в областта на компютърните науки или сходна специалност

Потенциални въпроси за интервю

Text copied to clipboard!
  • Колко години опит имате с Apache Spark?
  • С кои програмни езици сте работили в контекста на Spark?
  • Имате ли опит с Spark Streaming или MLlib?
  • Работили ли сте с Hadoop, Hive или Kafka?
  • Как подхождате към оптимизация на Spark задачи?
  • Имате ли опит с облачни платформи?
  • Какви инструменти използвате за тестване и дебъгване на Spark приложения?
  • Можете ли да опишете проект, в който сте използвали Spark?
  • Как се справяте с работа в екип и комуникация с други отдели?
  • Какви са вашите очаквания за професионално развитие?